Usuários de mídia social provavelmente não lerão além deste título, dizem pesquisadores
Parabéns. Ler até aqui na história é um feito que poucos conseguirão, especialmente se compartilhado no Facebook, de acordo com uma equipe liderada por pesquisadores da Penn State.
Domínio público
Parabéns. Ler até aqui na história é um feito que poucos conseguirão, especialmente se compartilhado no Facebook, de acordo com uma equipe liderada por pesquisadores da Penn State.
Em uma análise de mais de 35 milhões de postagens públicas contendo links que foram amplamente compartilhados na plataforma de mídia social entre 2017 e 2020, os pesquisadores descobriram que cerca de 75% dos compartilhamentos foram feitos sem que os pôsteres clicassem no link primeiro. Destes, o conteúdo político de ambas as extremidades do espectro foi compartilhado sem clicar com mais frequência do que o conteúdo politicamente neutro.
As descobertas, que os pesquisadores disseram sugerir que os usuários de mídia social tendem a ler apenas manchetes e sinopses em vez de se envolver totalmente com o conteúdo principal, foram publicadas hoje (19 de novembro) na Nature Human Behavior . Embora os dados tenham se limitado ao Facebook, os pesquisadores disseram que as descobertas provavelmente poderiam ser mapeadas para outras plataformas de mídia social e ajudar a explicar por que a desinformação pode se espalhar tão rapidamente online.
"Foi uma grande surpresa descobrir que mais de 75% das vezes, os links compartilhados no Facebook foram compartilhados sem que o usuário clicasse primeiro", disse o autor correspondente S. Shyam Sundar, professor da Universidade Evan Pugh e professor James P. Jimirro de Efeitos de Mídia na Penn State.
"Eu presumi que se alguém compartilhasse algo, lesse e pensasse sobre isso, estaria apoiando ou até mesmo defendendo o conteúdo. Você pode esperar que talvez algumas pessoas ocasionalmente compartilhem conteúdo sem pensar bem, mas para a maioria dos compartilhamentos ser assim? Essa foi uma descoberta surpreendente e muito assustadora."
O acesso aos dados do Facebook foi concedido via Social Science One, um consórcio de pesquisa hospedado pelo Instituto de Ciências Sociais Quantitativas da Universidade de Harvard, focado em obter e compartilhar dados sociais e comportamentais de forma responsável e ética. Os dados foram fornecidos em colaboração com a Meta, empresa controladora do Facebook, e incluíam dados demográficos e comportamentos do usuário, como uma "pontuação de afinidade de página política".
Essa pontuação foi determinada por pesquisadores externos que identificaram as páginas que os usuários seguem — como as contas de veículos de mídia e figuras políticas. Os pesquisadores usaram a pontuação de afinidade de página política para atribuir usuários a um de cinco grupos — muito liberal, liberal, neutro, conservador e muito conservador.
Para determinar o conteúdo político dos links compartilhados, os pesquisadores neste estudo usaram machine learning , uma forma de inteligência artificial, para identificar e classificar termos políticos no conteúdo do link. Eles pontuaram o conteúdo em uma escala de afinidade política de cinco pontos semelhante, de muito liberal a muito conservador, com base em quantas vezes cada grupo de afinidade compartilhou o link.
"Criamos essa nova variável de afinidade política de conteúdo com base em 35 milhões de postagens do Facebook durante a temporada eleitoral ao longo de quatro anos. Este é um período significativo para entender padrões de nível macro por trás do compartilhamento de notícias em mídias sociais", disse o coautor Eugene Cho Snyder, professor assistente de humanidades e ciências sociais no New Jersey Institute of Technology
A equipe validou a afinidade política de domínios de notícias, como CNN ou Fox, com base no gráfico de viés da mídia produzido pela AllSides, uma empresa independente focada em ajudar as pessoas a entender os vieses do conteúdo de notícias, e um sistema de classificação desenvolvido por pesquisadores da Northeastern University.
Com esses sistemas de classificação, a equipe classificou manualmente 8.000 links, primeiro identificando-os como conteúdo político ou não político. Então, os pesquisadores usaram esse conjunto de dados para treinar um algoritmo que avaliou 35 milhões de links compartilhados mais de 100 vezes no Facebook por usuários nos Estados Unidos.
"Um padrão surgiu e foi confirmado no nível de links individuais", disse Snyder. "Quanto mais próximo o alinhamento político do conteúdo ao usuário — tanto liberal quanto conservador — mais ele era compartilhado sem cliques. … Eles estão simplesmente encaminhando coisas que parecem concordar com sua ideologia política, sem perceber que às vezes podem estar compartilhando informações falsas ."
As descobertas apoiam a teoria de que muitos usuários leem notícias superficialmente com base apenas em manchetes e resumos, disse Sundar, explicando que a Meta também forneceu dados de seu serviço de verificação de fatos de terceiros, que identificou que 2.969 dos URLs compartilhados tinham links para conteúdo falso.
Os pesquisadores descobriram que esses links foram compartilhados mais de 41 milhões de vezes, sem serem clicados. Destes, 76,94% vieram de usuários conservadores e 14,25% de usuários liberais. Os pesquisadores explicaram que a grande maioria — até 82% — dos links para informações falsas no conjunto de dados se originou de domínios de notícias conservadoras.
Para reduzir o compartilhamento sem cliques, Sundar disse que as plataformas de mídia social poderiam introduzir "atrito" para retardar o compartilhamento, como exigir que as pessoas reconheçam que leram o conteúdo completo antes de compartilhar.
"O processamento superficial de manchetes e sinopses pode ser perigoso se dados falsos estiverem sendo compartilhados e não investigados", disse Sundar, explicando que os usuários de mídia social podem sentir que o conteúdo já foi examinado por aqueles em sua rede que o compartilham, mas este trabalho mostra que isso é improvável. "Se as plataformas implementarem um aviso de que o conteúdo pode ser falso e fizerem os usuários reconhecerem o perigo de fazer isso, isso pode ajudar as pessoas a pensar antes de compartilhar."
Isso não impediria campanhas intencionais de desinformação, disse Sundar, e os indivíduos ainda têm a responsabilidade de verificar o conteúdo que compartilham.
"Campanhas de desinformação ou informação falsa visam semear as sementes da dúvida ou dissenso em uma democracia — o escopo desses esforços veio à tona nas eleições de 2016 e 2020", disse Sundar. "Se as pessoas estão compartilhando sem clicar, elas estão potencialmente jogando na desinformação e involuntariamente contribuindo para essas campanhas encenadas por adversários hostis que tentam semear divisão e desconfiança."
Então por que as pessoas compartilham sem clicar primeiro?
"A razão pela qual isso acontece pode ser porque as pessoas são simplesmente bombardeadas com informações e não param para pensar sobre elas", disse Sundar. "Em tal ambiente, a desinformação tem mais chance de se tornar viral. Espero que as pessoas aprendam com nosso estudo e se tornem mais alfabetizadas em mídia, digitalmente experientes e, finalmente, mais conscientes do que estão compartilhando."
Mais informações: S. Shyam Sundar et al, Compartilhando sem clicar em notícias nas mídias sociais, Nature Human Behavior (2024). DOI: 10.1038/s41562-024-02067-4
Informações do periódico: Nature Human Behaviour